Проучване установи, че ChatGPT разпространява неточности, когато отговаря на въпроси за лекарства
Според ново проучване е открито, че ChatGPT споделя неточна информация по отношение на използването на опиати.
В изследване, ръководено от университета Лонг Айлънд (LIU) в Бруклин, Ню Йорк, съвсем 75% от обвързваните с медикаменти, прегледани от фармацевти отговори от generative AI chatbot се оказаха непълни или неверни.
В някои случаи ChatGPT, създаден от OpenAI в Сан Франциско и пуснат в края на 2022 година, даде „ неточни отговори, които биха могли да застрашат пациентите “, Американското сдружение на фармацевтите в здравната система (ASHP), със седалище в Бетесда, Мериленд, съобщи в известие за пресата.
ChatGPT също генерира „ подправени цитати “, когато е помолен да цитира препратки в поддръжка на някои отговори, също откри същото изследване.
Заедно с нейният екип, водещият създател на проучването Сара Гросман, PharmD, доцент по фармацевтична процедура в LIU, зададе на AI chatbot действителни въпроси, които в началото бяха заложени на осведомителната работа за медикаменти на Колежа по фармация на LIU сред 2022 и 2023 година
ChatGPT, AI chatbot, основан от OpenAI, генерира неточни отговори за медикаменти, откри ново изследване. Самата компания по-рано сподели, че „ моделите на OpenAI не са тънко настроени, с цел да дават здравна информация. Никога не би трябвало да употребявате нашите модели за даване на диагностични или лечебни услуги за съществени медицински положения, “ (LIONEL BONAVENTURE/AFP посредством Getty Images)
От 39 въпроса, заложени на ChatGPT, единствено 10 отговора бяха счетени за „ приемливи “ съгласно критериите на изследователския екип.
Резултатите от изследването бяха показани на междинната клинична среща на ASHP от 3 декември до декември. 7 в Анахайм, Калифорния.
Гросман, водещият създател, показа първичната си реакция на констатациите от изследването с Fox News Digital.
Тъй като „ ние не сме употребявали ChatGPT преди, бяхме сюрпризирани от способността на ChatGPT да даде много съществена информация за лекарството и/или болестното положение, обвързвано с въпроса, в границите на няколко секунди “, сподели тя по имейл.
„ Въпреки това ChatGPT не генерира точни и/или цялостни отговори, които непосредствено адресират множеството въпроси. “
Гросман също загатна изненадата си, че ChatGPT съумя да генерира „ измислени препратки към поддържат предоставената информация. "
От 39 въпроса, заложени на ChatGPT, единствено 10 от отговорите бяха счетени за „ приемливи " съгласно критериите на изследователския екип. (Frank Rumpenhorst/picture alliance посредством Getty Images; iStock)
В един образец, който тя цитира от изследването, ChatGPT беше запитан дали „ съществува лекарствено взаимоотношение сред Paxlovid, антивирусно лекарство, употребявано за лекуване на COVID-19, и верапамил, лекарство, употребявано за намаление на кръвното налягане. "
Моделът на AI отговори, че не са докладвани взаимоотношения с тази композиция.
Но в реалност, сподели Гросман, двете медикаменти съставляват капацитет опасност от „ прекалено намаление на кръвното налягане “, когато се комбинират.
„ Без познание за това взаимоотношение, пациентът може да страда от нежелателен и предотвратим непряк резултат “, предизвести тя.
" Винаги е значимо да се консултирате със здравни експерти, преди да употребявате информация, която е генерирана от компютри. "
ChatGPT би трябвало не се смята за „ влиятелен източник на информация, обвързвана с медикаменти “, акцентира Гросман.
„ Всеки, който употребява ChatGPT, би трябвало да се увери, че ревизира информацията, получена от надеждни източници – а точно фармацевти, лекари или други снабдители на здравни услуги, “ добави Гросман.
Проучването на LIU не оцени отговорите на други генериращи AI платформи, уточни Гросман – тъй че няма никакви данни за това по какъв начин ще се показват други модели на AI при същото изискване.
„ Независимо от това постоянно е значимо да се консултирате със здравни експерти, преди да употребявате информация, генерирана от компютри, които не са осведомени със характерните потребности на пациента “, сподели тя. p>
Правила за потребление от ChatGPT
Fox News Digital се свърза с OpenAI, разработчика на ChatGPT, за коментар по отношение на новото изследване.
OpenAI има политика за потребление, която не разрешава потребление за медицински указания, сподели представител на компанията по-рано пред Fox News Digital в изказване.
Paxlovid, антивирусното лекарство на Pfizer за лекуване на COVID-19, е показано в тази картинна илюстрация, направена на 7 октомври 2022 година Когато ChatGPT беше запитан дали съществува лекарствено взаимоотношение сред Paxlovid и верапамил, чатботът отговори погрешно, оповестява ново изследване. (REUTERS/Wolfgang Rattay/Illustration)
„ Моделите на OpenAI не са тънко настроени, с цел да дават здравна информация. Никога не би трябвало да употребявате нашите модели за даване на диагностични или лечебни услуги за съществени медицински положения “, съобщи представителят на компанията по-рано тази година.
„ Платформите на OpenAI не би трябвало да се употребяват за подбиране или ръководство на животозастрашаващи проблеми, които се нуждаят неотложно внимание. "
Доставчиците на здравни услуги " би трябвало да дават отвод от отговорност на потребителите, като ги осведомят, че се употребява AI и за неговите евентуални ограничавания. "
Компанията също по този начин изисква, когато употребяват ChatGPT за взаимоотношение с пациенти, доставчиците на здравни услуги " би трябвало да дават отвод от отговорност на потребителите, като ги осведомят, че се употребява AI и за неговите евентуални ограничавания. "
В допълнение, както Fox News Digital означи по-рано, едно огромно предизвестие е, че източникът на данни на ChatGPT е интернет — а в мрежата има доста дезинформация, както множеството хора знаят.
Ето за какво отговорите на чатбота, колкото и безапелационни да звучат, постоянно би трябвало да се ревизират от доктор.
Авторът на новото изследване предлага да се консултирате със здравен експерт, преди да разчитате на генеративен AI за медицински запитвания. (iStock)
Освен това ChatGPT е бил „ подготвен “ на данни единствено до септември 2021 година, съгласно голям брой източници. Въпреки че може да усили знанията си с течение на времето, той има ограничавания във връзка с даването на по-актуална информация.
Миналия месец основният изпълнителен шеф Сам Алтман заяви, че ChatGPT на OpenAI е получил надстройка — и скоро ще бъде подготвен данни до април 2023 година
„ Иновативен капацитет “
Dr. Харви Кастро, основан в Далас, Тексас, сертифициран от борда доктор по незабавна медицина и народен представител по ИИ в опазването на здравето, реши „ новаторския капацитет “, който ChatGPT предлага на здравната сцена.
„ За общо запитвания, ChatGPT може да даде бърза, налична информация, евентуално намалявайки натоварването на здравните експерти “, сподели той пред Fox News Digital.
„ Алгоритмите за машинно образование на ChatGPT му разрешават да се усъвършенства по отношение на време, изключително с подобаващи механизми за образование за укрепване ", сподели още той.
Наскоро докладваните грешки в отговорите на ChatGPT обаче съставляват " сериозен проблем " с програмата, уточни специалистът по AI.
„ Това е изключително обезпокоително в области с високи залози като медицината “, сподели Кастро.
Експерт по здравни технологии означи, че медицинските експерти са виновни за „ управлението и рецензията “ на моделите на изкуствен интелект, до момента в който се развиват. (iStock)
Друг евентуален риск е, че е потвърдено, че ChatGPT „ халюцинира “ информация – което значи, че може да генерира правдоподобно, само че погрешно или непроверено наличие, предизвести Кастро.
„ Това е рисково в медицински условия, където точността е от първостепенно значение “, сподели Кастро.
" Въпреки че ChatGPT демонстрира заричане в опазването на здравето, актуалните му ограничавания … акцентират нуждата от внимателно внедряване. "
ИИ " сега няма надълбоко, нюансирано схващане на медицинския подтекст ", притежаван от експерти по опазване на здравето, добави Кастро.
„ Въпреки че ChatGPT демонстрира заричане в опазването на здравето, актуалните му ограничавания, изключително при обработката на запитвания, свързани с медикаменти, акцентират нуждата от внимателно внедряване. “
OpenAI, разработчикът на ChatGPT, има политика за потребление, която не разрешава потреблението за медицински указания, сподели представител на компанията пред Fox News Digital по-рано тази година. (Jaap Arriens/NurPhoto посредством Getty Images)
Говорейки като Лекарят по незабавна помощ и съветник по здравни грижи с ИИ, Кастро акцентира „ скъпата “ роля, която медицинските експерти имат в „ насочването и критикуването на тази разрастваща се технология. “
„ Човешкият контрол остава незаместим, гарантирайки че AI принадлежности като ChatGPT се употребяват по-скоро като добавки, в сравнение с като заместители на професионалната здравна преценка “, добави Кастро.
Мелиса Руди от Fox News Digital способства за репортажите.
.
Анджелика Стабиле е публицист за метода на живот за Fox News Digital.